Text copied to clipboard!

Názov

Text copied to clipboard!

Vývojár Spark

Opis

Text copied to clipboard!
Hľadáme skúseného a motivovaného Vývojára Spark, ktorý sa pripojí k nášmu technologickému tímu a bude sa podieľať na vývoji a optimalizácii dátových riešení pomocou Apache Spark. Ako Vývojár Spark budete zodpovedný za návrh, implementáciu a údržbu distribuovaných dátových aplikácií, ktoré spracúvajú veľké objemy dát v reálnom čase alebo dávkovom režime. Vašou úlohou bude spolupracovať s dátovými inžiniermi, analytikmi a ďalšími vývojármi na vytváraní efektívnych a škálovateľných riešení, ktoré podporujú obchodné rozhodovanie a analýzu.Ideálny kandidát má silné skúsenosti s Apache Spark (v jazykoch ako Scala, Java alebo Python), rozumie princípom distribuovaného spracovania dát a má skúsenosti s prácou v cloudových prostrediach ako AWS, Azure alebo GCP. Znalosť nástrojov ako Hadoop, Kafka, Hive alebo Airflow je výhodou. Očakávame schopnosť samostatne riešiť problémy, navrhovať efektívne architektúry a optimalizovať výkonnosť dátových tokov.Na tejto pozícii budete mať možnosť pracovať na inovatívnych projektoch, ktoré majú reálny dopad na fungovanie firmy. Ponúkame flexibilné pracovné podmienky, možnosť práce na diaľku, profesionálny rast a spoluprácu s odborníkmi v oblasti dátovej vedy a inžinierstva.Ak máte vášeň pre prácu s veľkými dátami, radi riešite komplexné technické výzvy a chcete sa podieľať na budovaní moderných dátových platforiem, táto pozícia je pre vás ideálna.

Zodpovednosti

Text copied to clipboard!
  • Vývoj a údržba dátových aplikácií pomocou Apache Spark
  • Optimalizácia výkonu Spark úloh a dátových tokov
  • Spolupráca s dátovými inžiniermi a analytikmi
  • Integrácia Spark riešení s cloudovými platformami (AWS, Azure, GCP)
  • Implementácia ETL procesov a dátových pipeline
  • Zabezpečenie kvality a konzistencie dát
  • Monitorovanie a ladenie produkčných aplikácií
  • Dokumentácia technických riešení a architektúry
  • Účasť na návrhu dátovej architektúry
  • Dodržiavanie bezpečnostných a regulačných štandardov

Požiadavky

Text copied to clipboard!
  • Skúsenosti s Apache Spark (Scala, Java alebo Python)
  • Znalosť distribuovaného spracovania dát
  • Skúsenosti s cloudovými platformami (AWS, Azure, GCP)
  • Znalosť SQL a databázových systémov
  • Znalosť nástrojov ako Hadoop, Kafka, Hive alebo Airflow je výhodou
  • Schopnosť optimalizovať výkonnosť Spark aplikácií
  • Skúsenosti s vývojom ETL procesov
  • Analytické myslenie a schopnosť riešiť problémy
  • Tímová spolupráca a dobré komunikačné schopnosti
  • Vysokoškolské vzdelanie v oblasti informatiky alebo príbuzného odboru

Potenciálne otázky na pohovor

Text copied to clipboard!
  • Aké máte skúsenosti s Apache Spark?
  • V ktorých jazykoch ste vyvíjali Spark aplikácie?
  • Máte skúsenosti s cloudovými platformami? Ktorými?
  • Ako pristupujete k optimalizácii Spark úloh?
  • Aké nástroje používate na monitorovanie a ladenie aplikácií?
  • Máte skúsenosti s implementáciou ETL procesov?
  • Ako zabezpečujete kvalitu a konzistenciu dát?
  • Pracovali ste už s nástrojmi ako Kafka alebo Hive?
  • Ako riešite problémy v distribuovanom prostredí?
  • Ste ochotný pracovať v tíme a zdieľať svoje znalosti?